81 research outputs found
Compute Less to Get More: Using ORC to Improve Sparse Filtering
Sparse Filtering is a popular feature learning algorithm for image
classification pipelines. In this paper, we connect the performance of Sparse
Filtering with spectral properties of the corresponding feature matrices. This
connection provides new insights into Sparse Filtering; in particular, it
suggests early stopping of Sparse Filtering. We therefore introduce the Optimal
Roundness Criterion (ORC), a novel stopping criterion for Sparse Filtering. We
show that this stopping criterion is related with pre-processing procedures
such as Statistical Whitening and demonstrate that it can make image
classification with Sparse Filtering considerably faster and more accurate
PixColor: Pixel Recursive Colorization
We propose a novel approach to automatically produce multiple colorized
versions of a grayscale image. Our method results from the observation that the
task of automated colorization is relatively easy given a low-resolution
version of the color image. We first train a conditional PixelCNN to generate a
low resolution color for a given grayscale image. Then, given the generated
low-resolution color image and the original grayscale image as inputs, we train
a second CNN to generate a high-resolution colorization of an image. We
demonstrate that our approach produces more diverse and plausible colorizations
than existing methods, as judged by human raters in a "Visual Turing Test"
La pena de muerte desde la bioética y los derechos humanos
Se ofrece una reflexión de la pena de muerte, que parte de premisas esenciales desde la bioética y los derechos humanos. Se plantean algunas generalidades de esta disciplina, dado que orientan a un cuestionamiento respecto al aporte de la ciencia y la tecnología para llevar a cabo ejecuciones más humanas. Enseguida se recurre a los conceptos de vida, persona y dignidad para enmarcar el argumento en los derechos humanos. Se retoman algunas sentencias de documentos internacionales apelando a un desarrollo del hombre desde la ética: la práctica de la pena máxima, por el contrario, lo retiene. Así pues, se anticipa que lo humano nunca se hallará en la aniquilación de su propio género.Se ofrece una reÁexión de la pena de muerte, que parte de premisas esenciales desde la bioética y los derechos humanos. Se plantean algunas generalidades de esta disciplina, dado que orientan a un cuestionamiento respecto al aporte de la ciencia y la tecnología para llevar a cabo “ejecuciones más humanas”. Enseguida se recurre a los conceptos de vida, persona y dignidad para enmarcar el argumento en los derechos humanos. Se retoman algunas sentencias de documentos internacionales apelando a un desarrollo del hombre desde la ética: la práctica de la pena máxima, por el contrario, lo retiene. Así pues, se anticipa que lo humano nunca se hallará en la aniquilación de su propio género
Rerpresentación del conocimiento impreciso: Revisión parcial de las teorías de conjuntos borrosos.
Este trabajo comienza con una descripción del concepto de conocimiento, una clasicación de los tipos de conocimientos que nos interesan y una relación de los métodos que se han usado para representar los distintos tipos de conocimientos, así como el interés en usar la lógica borrosa para representar conocimiento impreciso. En el capítulo 2 expondremos qué son los conjuntos borrosos y su origen, así como, las distintas interpretaciones que se hacen de los conjuntos borrosos y las diferentes técnicas utilizadas para hallar su función de pertenencia. En el capítulo 3 efectuaremos una recopilación de las teorías de conjuntos borrosos hasta llegar a las teorías estándar y las teorías de conjuntos imprecisos, como propuesta axiomática para intentar clarificar qué es una teoría de conjuntos borrosos. También plantearemos las limitaciones que éstas tienen para representar conocimiento impreciso. En el capítulo 4 expondremos un nuevo concepto de conjunto borroso como representación del uso de un predicado en el lenguaje. Propondremos después, un método para representar predicados, variables lingüísticas, relaciones entre predicados y razonamiento no formal (basado en conocimiento), apoyado en el uso de varias teorías estándar. En el capítulo 5 explicaremos las características del sistema CW00(Computing with Words prototipo 0 - versión 0) que hemos construido para representar conocimiento impreciso a partir de las propuestas del capítulo anterior. En el capítulo 6 sacaremos las conclusiones que se deriven de la revisión de las teorías de conjuntos borrosos y su mejor adecuación para la representación del conocimiento, siendo CW00 a la vez un buen ejemplo del uso simultaneo de diversas teorías y un sistema para experimentar con los conjuntos borrosos en el lenguaje
The Devil is in the Decoder: Classification, Regression and GANs
Many machine vision applications, such as semantic segmentation and depth
prediction, require predictions for every pixel of the input image. Models for
such problems usually consist of encoders which decrease spatial resolution
while learning a high-dimensional representation, followed by decoders who
recover the original input resolution and result in low-dimensional
predictions. While encoders have been studied rigorously, relatively few
studies address the decoder side. This paper presents an extensive comparison
of a variety of decoders for a variety of pixel-wise tasks ranging from
classification, regression to synthesis. Our contributions are: (1) Decoders
matter: we observe significant variance in results between different types of
decoders on various problems. (2) We introduce new residual-like connections
for decoders. (3) We introduce a novel decoder: bilinear additive upsampling.
(4) We explore prediction artifacts
LSDA: Large Scale Detection Through Adaptation
A major challenge in scaling object detection is the difficulty of obtaining
labeled images for large numbers of categories. Recently, deep convolutional
neural networks (CNNs) have emerged as clear winners on object classification
benchmarks, in part due to training with 1.2M+ labeled classification images.
Unfortunately, only a small fraction of those labels are available for the
detection task. It is much cheaper and easier to collect large quantities of
image-level labels from search engines than it is to collect detection data and
label it with precise bounding boxes. In this paper, we propose Large Scale
Detection through Adaptation (LSDA), an algorithm which learns the difference
between the two tasks and transfers this knowledge to classifiers for
categories without bounding box annotated data, turning them into detectors.
Our method has the potential to enable detection for the tens of thousands of
categories that lack bounding box annotations, yet have plenty of
classification data. Evaluation on the ImageNet LSVRC-2013 detection challenge
demonstrates the efficacy of our approach. This algorithm enables us to produce
a >7.6K detector by using available classification data from leaf nodes in the
ImageNet tree. We additionally demonstrate how to modify our architecture to
produce a fast detector (running at 2fps for the 7.6K detector). Models and
software are available a
- …